أصبح الذكاء الاصطناعي موضوعاً مهماً بشكل متزايد في السنوات الأخيرة ولا سيما بعد ظهور النماذج التوليدية والخوارزميات التحويلية، حيث يحذر الخبراء من المخاطر المحتملة لتطوير نماذج الذكاء الاصطناعي دون وجود حوكمة وأطر وقواعد ثابتة لتقنين هذه التكنولوجيا وتطبيقاتها.

هناك دول عديدة مثل إيطاليا حظرت تطبيقات مثل «تشات جي بي تي»، بشأن مخاوف مرتبطة بالخصوصية وعدم الشفافية بشأن البيانات مع مطوريها. كما أن هناك مخاوف مرتبطة بانتشار الأخبار المزيفة إلى جانب الخوارزميات المتحيزة، لذلك يجب الأخذ بعين الاعتبار العديد من الأسئلة الأخلاقية المحيطة بالذكاء الاصطناعي، التي تحتاج إلى دراسة ووضع مبادئ وقوانين لممارستها وتطوير هذه التكنولوجيا بطرق تتماشى مع القيم الإنسانية.

شهدت الأسابيع الماضية سلسلة من الأحداث تضمنت استقالة جيفري هينتون، أحد أبرز الشخصيات في عالم الذكاء الاصطناعي، مؤخراً من منصبه في Google مشيراً إلى مخاوف أخلاقية. وأعرب هينتون، المعروف باسم «الأب الروحي للتعلم العميق»، عن مخاوفه بشأن سوء استخدام الذكاء الاصطناعي، محذراً من قدرته على خلق أخبار مزيفة وأيضاً ما يتيحه من إمكانية للتلاعب بالرأي العام. تسلط استقالة «هينتون» الضوء على قلق متزايد بشأن الآثار الأخلاقية المترتبة على الذكاء الاصطناعي، وحاجة الباحثين وشركات التكنولوجيا إلى أخذ هذه المخاوف على محمل الجد.

ومع التطور السريع لتقنيات الذكاء الاصطناعي، أصبح من الملح بشكل متزايد وضع مبادئ توجيهية ولوائح أخلاقية حول البحث والتطوير في مجال الذكاء الاصطناعي. كما انتشرت رسالة في شهر مارس الماضي تدعو لوقف تطوير تكنولوجيا أكثر تقدماً من «GPT4» لمدة ستة أشهر على الأقل، ووقع على هذه الرسالة أكثر من ثلاثين ألف خبير ورائد أعمال وباحث في الذكاء الاصطناعي من مؤسسات معروفة، منهم أيلون ماسك ومدراء ومؤسسون لكبرى الشركات مثل Apple وThales ووكالة الفضاء الأميركية NASA وجامعات في المملكة المتحدة والولايات المتحدة الأميركية وأوروبا.

وتحذر الرسالة من أن قوة الحوسبة وقدرات أنظمة الذكاء الاصطناعي تتسارع بوتيرة تتجاوز التقدم المحرز في فهم قدراتها ومواءمتها مع القيم الإنسانية. يذكر الأكاديميون أن أنظمة الذكاء الاصطناعي المعاصرة تعرض بالفعل سمات بشرية معترف بها في علم النفس، بما في ذلك دليل على «نظرية العقل». وهذا يعني أن الأنظمة الذكاء الاصطناعي قادرة على فهم سلوك الكيانات الأخرى والتنبؤ به، بما في ذلك البشر.

تؤكد الرسالة - أو بالأحرى الوثيقة - على الحاجة إلى مزيد من البحث الاستخدام المسؤول في الذكاء الاصطناعي لضمان فهم المجتمع للآثار المترتبة على تحقيق الذكاء الاصطناعي العام (AGI) ودعوة للمجتمع العلمي وقطاع التكنولوجيا والمجتمع ككل لضرورة دعم البحث والتطوير والابتكار، مع وضع السياسات وضمان تطوير النظم الذكاء الاصطناعي واستخدامها بطرق تتماشى مع القيم والأولويات الإنسانية. ولمعالجة المخاوف الأخلاقية، يدعو الخبراء إلى مزيد من الشفافية والمساءلة في البحث والتطوير لتكنولوجيا المرتبطة بالذكاء الاصطناعي.

ويشمل ذلك تطوير المبادئ التوجيهية واللوائح الأخلاقية في جميع أنحاء الذكاء الاصطناعي والتكنولوجيا المتقدمة، فضلاً عن زيادة التعاون بين الباحثين وشركات التكنولوجيا وصانعي السياسات. وفي نهاية المطاف، فإن الآثار الأخلاقية المترتبة على الذكاء الاصطناعي معقدة ومتعددة الأوجه، ولا يوجد حل بسيط لهذه التحديات. ومع ذلك، من خلال أخذ هذه المخاوف على محمل الجد، يمكننا ضمان تطوير الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية وتطوير تكنولوجيا تفيد البشرية.

*خبيرة إماراتية في الذكاء الاصطناعي.